Digital Services ActDas ändert sich heute auf großen Plattformen

Chronologische Feeds, verbesserte Transparenz in der Werbung und mehr Schutz vor Manipulation: Ab heute müssen sich große Online-Dienste wie Facebook oder Google an neue EU-Regeln halten. Wir geben einen Überblick, welche Änderungen Nutzer:innen erwarten können – und was noch ansteht.

Blauer Hintergrund, davor dreidimensionale Würfel mit den Logos von Facebook, Youtube, Tiktok, Instagram, Twitter und LinkedIn
Der Digital Services Act der EU bringt neue Regeln für Online-Plattformen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Mariia Shalabaieva

Das Digitale-Dienste-Gesetz der Europäischen Union nimmt seinen ersten großen Schritt: Ab heute, Freitag, gelten in Europa eine ganze Reihe von neuen Verpflichtungen. Durch die EU-Verordnung soll die Nutzung von Online-Diensten generell transparenter und sicherer werden.

Zunächst gelten die Regeln für die besonders großen Plattformen mit mehr als 45 Millionen Nutzer:innen. Schon vor einiger Zeit hatte die EU-Kommission 19 Firmen aufgezählt, die ihrer Ansicht nach darunterfallen. Dazu gehören diverse Google-Dienste wie etwa YouTube, Maps und der Play-Store. Auch für einige Social-Media-Plattformen wie TikTok, Pinterest, LinkedIn, Snapchat und Metas Instagram sowie Facebook gelten die strengen Regeln. Außerdem für Shopping-Riesen wie Amazon, Alibaba AliExpress sowie Zalando und, als einzige nicht-kommerzielle Plattform: Die Wikipedia.

Wir haben die wichtigsten Änderungen für Euch zusammengefasst.

Mehr Autonomie und Sicherheit für Nutzer:innen

  • Wer einen Dienst wie Instagram oder TikTok nutzt, hat künftig ein Recht zu erfahren, warum bestimmte Inhalte im Feed landen. Wer keine Empfehlungen auf Basis seiner persönlichen Daten bekommen möchte, darf auf einem Opt-Out bestehen. Diese Woche hat Meta als Reaktion auf das Digitale-Dienste-Gesetz angekündigt, Nutzer:innen künftig einen chronologisch geordneten Feed anzubieten. TikTok setzt die Vorgabe bereits um.
  • Online-Handelsplätze müssen sicherstellen, dass Käufer:innen leicht herausfinden können, mit wem sie ins Geschäft kommen. Anbieter:innen auf Plattformen müssen demnach Kontaktdaten und ihre Einträge in Handelsregister sowie weitere relevante Informationen offenlegen.
  • Dark Patterns, die Nutzer:innen bewusst durch Designentscheidungen in die Irre führen, sind künftig ausdrücklich verboten.

Ein Recht auf Moderation

  • Große Plattformen wie Facebook moderieren Inhalte bislang weitgehend nach eigenem Gutdünken. Dem sollen Nutzer:innen künftig nicht mehr ganz so ohnmächtig gegenüberstehen. So wird ein wirksames Beschwerdeverfahren in der EU zur gesetzlichen Pflicht. Wenn etwa Inhalte gelöscht werden, müssen Nutzer:innen klar darüber informiert werden, gegen welche Regel der Plattform der Inhalt verstößt. Sie erhalten außerdem ein Widerspruchsrecht. Plattformen müssen zudem binnen einer bestimmten Zeit reagieren. Meta hat versprochen, Nutzer:innen künftig genauer über seine Moderationsentscheidungen zu informieren.
  • Plattformen müssen außerdem gegen systemische Risiken vorgehen. Gemeint ist damit, dass die Anbieter ausreichende Maßnahmen treffen müssen, um etwa gegen die massenhafte Verbreitung von Kindesmissbrauchsdarstellungen, Hetze gegen Minderheiten oder Desinformation vorzugehen. Darüber müssen die Plattformen jährliche Berichte vorlegen. Die EU-Kommission kann deren Wirksamkeit unabhängig überprüfen lassen und im Zweifelsfall Korrekturen anordnen. Das könnte etwa für X (vormals Twitter) zum Problem werden, das unter Elon Musk viele Mitarbeiter:innen gekündigt hat, die an der Inhalte-Moderation und der Sicherheit der Plattform gearbeitet haben. Verweigert ein Konzern grundsätzlich, geeignete Maßnahmen zum Schutz seiner Nutzer:innen zu treffen, drohen Strafen in Milliardenhöhe.

Mehr Schutz vor Manipulation

  • Werbung darf künftig nicht mehr auf Basis sensibler persönlicher Daten ausgespielt werden. Dazu zählen etwa die politische Überzeugung, sexuelle Orientierung oder ethnische Zugehörigkeit. Plattformen müssen jegliche Werbung als solche kennzeichnen und klare Informationen bieten, wer dafür bezahlt hat. Google hat deshalb die Richtlinien für seine Werbeplattform geändert. In Europa sei die „Auswahl der Zielgruppen auf Grundlage bestimmter Kategorien wie ethnische Herkunft, Religion, Gesundheitszustand, sexuelle Vorlieben, finanzieller Status und politische Orientierung […] nicht zulässig“.
  • Das zielgerichtete Ausspielen von Werbung an Kinder ist künftig nicht mehr erlaubt. Plattformen müssen Schritte unternehmen, um die Risiken für die Sicherheit, den Schutz der Privatsphäre und die psychische Gesundheit von Minderjährigen zu senken.
  • Plattformen müssen künftig Archive aller bei ihnen ausgespielten Werbeinhalte zur Verfügung stellen. Auch muss für Entscheidungen über das Löschen und Sperren von Inhalten Transparenz hergestellt werden, entweder durch ein Register aller Entscheidungen oder regelmäßige Berichte. Google hat auf seiner Werbeplattform bereits ein Register gelöschter Anzeigen ausgestellt – ähnliche Archive könnten künftig für andere Löschentscheidungen zum Standard werden.

Konzerne kommen nur langsam in die Gänge

Mit der Umsetzung des neuen EU-Gesetzes lassen sich einige der Plattformen offenbar Zeit. Am Tag bevor die neuen Regeln wirksam wurden, sagte ein hoher EU-Beamter in einem Presse-Briefing, dass Elon Musks Twitter/X beispielsweise zwar volle Einhaltung der neuen Regeln zugesagt, aber „noch einen weiten Weg zu gehen“ habe. Die EU werde sehr genau auf das Verhalten der Plattformen achten.

Zwei der von den Regeln für sehr große Plattformen betroffenen Firmen, Amazon und Zalando, haben außerdem gegen ihre Einstufung als „sehr große Plattform“ Klage eingereicht. Werden sie von der Liste gestrichen, gelten für sie lediglich die generellen Auflagen für Online-Dienste des neuen EU-Gesetzes. Urteile stehen noch aus. Die EU-Kommission arbeitet unterdessen an einer Liste von weiteren Plattformen, die als „sehr große Plattformen“ den besonders strengen Auflagen unterliegen.

Die Revolution bleibt aus

Die Nachrichtenagentur Reuters berichtet zudem von Zweifeln mehrerer Nichtregierungsorganisationen, ob die großen Social-Media-Plattformen den neuen Regeln bereits nachkommen. So hatte etwa die NGO Global Witness herausgefunden, dass Facebook, TikTok und YouTube noch in diesem Jahr Werbeanzeigen zugelassen hätten, die zu Hass gegen die LGBTQ+ Community aufrufen. Einen Tag vor Wirksamwerden der neuen Regeln berichtet nun die NGO Ekō, dass sie mehrere Anzeigen auf Facebook habe schalten können, die offenkundig gegen die Plattformregeln verstoßen.

Aufsicht: Kompetenzgerangel in Deutschland

Für die Aufsicht der sehr großen Anbieter ist grundsätzlich die EU-Kommission zuständig. Dennoch schreibt das EU-Gesetz eine enge Zusammenarbeit mit den nationalen Aufsichtsbehörden fest, die vor allem für Nutzer:innen künftig die erste Anlaufstelle bei Beschwerden sein sollen.

Noch ist nicht restlos geklärt, wer in Deutschland für die Überwachung und Durchsetzung der neuen Regeln zuständig sein wird. Dazu haben die EU-Länder noch bis nächstes Jahr Zeit. Der Digital Services Act sieht die Einrichtung einer unabhängigen Institution vor, den sogenannten Koordinator für digitale Dienste. Welche Form dies konkret annimmt, darum ringt die Bundesregierung seit Monaten.

Klar ist inzwischen, dass keine neue Behörde geschaffen werden soll, sondern die Bundesnetzagentur entsprechende Kompetenzen erhalten soll. Allerdings sollen weitere Behörden zuarbeiten, etwa der Bundesdatenschutzbeauftragte und die Bundeszentrale für Kinder- und Jugendmedienschutz. Hartnäckig im Gespräch bleiben auch die Landesmedienanstalten oder das Bundesamt für Justiz, die Ansprüche auf Teilbereiche der Aufsicht anmelden. Eine zersplitterte Aufsicht könnte jedoch eine schlagkräftige Durchsetzung der Regeln erschweren.

Erst in dieser Woche ruft deshalb der Bundesverband der Verbraucherzentralen die Bundesregierung auf, endlich „Schluss mit dem Zuständigkeitsgerangel“ zu machen. In einer Stellungnahme kritisieren die Verbraucherschützer:innen, „dass sich der politische Diskurs aktuell häufig um Befindlichkeiten von Behörden sowie deren Angst vor Bedeutungsverlust dreht“.

Wie die Regeln für die Aufsicht werden weitere Teile des Digitale-Dienste-Gesetzes erst nächstes Jahr wirksam. Ab 17. Februar 2024 gilt etwa die Verpflichtung zur Einrichtung außergerichtlicher Streitbeilegungsmechanismen. Diese sollen überall dort greifen, wo Nutzer:innen mit Ergebnissen ihres Widerspruchs gegen eine Moderationsentscheidung einer Plattform unzufrieden sind, aber einen Gang vor Gericht scheuen. Ab nächstem Jahr soll es möglich sein, in solchen Fällen eine unabhängige Stelle anzurufen, die schnell und unbürokratisch entscheidet.

Die Forschung soll überdies durch das Digitale-Dienste-Gesetz einen Zugang zum Datenschatz der Plattformen erhalten. Dadurch sollen nach Wunsch der EU unabhängige Forscher:innen die Möglichkeit erhalten, die Arbeit der Plattformen etwa bei der Inhalte-Moderation zu beurteilen. Über die Details wird derzeit allerdings noch verhandelt – ein ausführender Rechtsakt wird wohl 2024 fertig sein.

18 Ergänzungen

  1. Hi, Ihr schreibt:

    „Plattformen müssen außerdem gegen systemische Risiken vorgehen. Gemeint ist damit, dass die Anbieter ausreichende Maßnahmen treffen müssen, um etwa gegen die Plattformen müssen außerdem gegen systemische Risiken vorgehen. Gemeint ist damit, dass die Anbieter ausreichende Maßnahmen treffen müssen, um etwa gegen die massenhafte Verbreitung von Kindesmissbrauchsdarstellungen, Hetze gegen Minderheiten oder Desinformation vorzugehen, Hetze gegen Minderheiten oder Desinformation vorzugehen“

    Habt Ihr bitte kurz ein Beispiel zur Hand, bei dem eine Social-Media-Plattform eine „massenhafte Verbreitung von Kindesmissbrauchsdarstellungen“ ermöglichte? Die anderen Beispiele (Hetze, Desinformation) sind ja alltäglich, aber auf Kindesmissbrauch bin ich noch nie gestoßen.

    Habt Ihr hier mal wieder aus Versehen die Propaganda der „Kinderschützer“ (==erzkonservative evangelikale Sexfeinde) übernommen?

    1. Ich glaube nicht, dass wir die Propaganda von irgendwem übernehmen. Kindesmissbrauchsdarstellungen sind ein echtes Problem auf großen Plattformen, weshalb etwa Meta regelmäßig Berichte dazu vorlegt. Siehe dazu auch dieser Artikel in der New York Times, der schildert, was auf Twitter passiert seit Musk die Content-Moderation runterfährt. Es geht auch nicht darum, ob die Zahl der Fälle in absoluten Zahlen weniger sind als solche von Hetze oder Desinformation. Die Frage, die sich aus unserem Artikel ergibt ist, ob die Plattformen genug gegen solche Inhalte unternehmen – etwas schnell und entschieden genug auf Meldungen von Inhalten in öffentlichen Posts reagieren.

      1. „Kindesmissbrauchsdarstellungen sind ein echtes Problem auf großen Plattformen“

        Sie sind ein echtes Problem, wenn es sich um echte Darstellungen handelt. Das Twitter/X Probleme mit echtem Material hat ist jedem klar insb. da erst vor kurzem ein Spam-Account das sowas verbreitet von Musk entsperrt wurde und für Schlagzeilen sorgte…

        Nichtsdestotrotz gibt es auf Twitter/X weiterhin, und das bereits seit Gründung, fiktive Comic-Darstellungen. Wenn da selbst japanische Unternehmen u. teils Politiker sowas dort verbreiten. Das gab es aber alles bereits vor Elon Musk. So wie ich den DSA verstehe müsste Twitter/X deswegen nicht mehr in der EU angeboten werden können, da nationale Recht ebenfalls EU-weite sperren auslösen können, oder? Wie man dann Kunstplattformen, Imageboards o. ä. in EU anbieten will ist mir persönlich ein Rätsel – selbst im Kontext eines Fabelwesens ist es nicht erlaubt u. dann gibt es noch andere Staaten, wo widerum andere Darstellungen verboten sind und diese für alle anderen sperren lassen?

      2. Zumal die Datenhalden bestehen bleiben, potentiell „ewig“.

        Wie groß und was für ein Problem, hätte ich politikseits gerne etwas wenige Wischischaschi. Zudem greifen die Regulierungsversuche, letztlich auch wegen der Begehrlichkeiten seitens Urheberrechtsindustien und Totalkontrollfreaks (Achtung: auch Strategen! Nicht zu niedlich…), eben all zu oft erst mal nicht nur die großen Plattformen an, sondern so gut wie alles, inklusive moderierter Austauschformen, in denen diese Probleme nicht in der selben Form bestehen. Die gesetzten Zeitrahmen für die Entfernung sind für moderierte kleine Teilnehmer natürlich sehr schwierig umzusetzen, was bei entsprechender Pflicht wiederum flächendeckend zu von Konzernen bereitgestellten Filter-„lösungen“ führen würde, mit allen Nachteilen für die süßen Kleinen, inklusive der viel besungenen „Vertragsfreiheit“.

        Wir sind ja nicht gerade mal ein paar Jahre lang im „alles mit Internet ist kaputt“-Modus unterwegs, was die Gesetzgebung betrifft. Wer investiert denn da, wenn er nicht gerade sein Herzensprojekt umsetzt, ihm Nutzer Banane sind, bzw. Privatsphäre überhaupt nicht interessiert? Zugegeben eine Nische, und jetzt noch mehr, einfach auch weil die Konkurrenz es so viel einfacher hat, drauf zu scheißen. An der Stelle hat Europa die besungenen europäischen Freiheiten konzeptionell fast schon abgeschafft, während zwar in Richtung Unternehmen schon einiges passiert ist, aber bei weitem noch kein Schutz besteht.

      3. „Es geht auch nicht darum, ob die Zahl der Fälle in absoluten Zahlen weniger sind [..]“

        Äh, doch? ich meine genau darum geht es wenn man von „_massenhafte_ Verbreitung“ spricht.

        1. Naja, nicht wenn es sowohl bei dem einen als auch den anderen um eine „massenhafte“ Zahl an Fällen geht. Also, egal ob viele Millionen oder viele Tausend, beide lässt sich als massenhaft bezeichnen.

          1. Natürlich ist das relativ zu sehen. Die Polizei fährt ja auch nicht überall gleichzeitig Streife, „nur weil muß“. Resourcen sind nun mal in der Regel nicht unendlich vorhanden.

            Andererseits zählen die absoluten Zahlen auch, wenn sie groß genug sind. Allerdings ist immer die Frage, ob die Bedeutung mithalten kann. Verbreitetes redundantes Material ohne Signifikanz oder Erreichen einer kritischen Masse (von irgendwas)?

            Ein kleines Netzwerk kann im Zweifel nur dichtmachen, Accounterstellung verlangsamen, Accounts sperren, Bilder seit Tag X sperren, … so Sachen… (Auch die Mittel sind gefälligst relativ zu sehen.)

          2. Autos werden nicht unsicherer, nur weil alle Chinesen jetzt auch Auto fahren, und die absolute Zahl an Verkehrseinfällen sich weltweit verdoppelt o.ä. Die Straßen werden vielleicht schon unsicherer, da ich wissen will, mit welcher Wahrscheinlichkeit ich dem Weg zur Arbeit umgefahren werde.

            Den Sprung zurück auf „Social Media“ und die Massen: es ist auch eine Sichtbarkeitsfrage. Die Absolute Zahl kann unendlich groß sein, aber die Sichtbarkeit solchen Materials nicht erhöht sein, d.h. ich muss gezielt danach suchen, und brauche genau so lang wie vorher, um etwas zu finden.

          3. Das sind natürlich Spotlights auf Aspekte von Problemen, ja nach Schadensklasse o.ä. (Traumatisieren durch Stolpern passiert eben eher nicht so oft bei nicht vorhandener Sichtbarkeit, auch das nonintentionale Beitreten zu pädophilen Gruppen u.ä. ist eher ein Randphänomen für Stolperer.)

            Nicht ganz wegdiskutieren kann man die theoretische Möglichkeit, Links zu solchen Inhalten anderweitig zu teilen, d.h. die Zugreifenden kommen über die über andere Wege verteilten Links an das Material auf einer Plattform heran. Dann könnte man argumentieren, dass die absolute Anzahl zählt, allerdings muss man da auch einige Punkte beachten: Redundanz, Schweregrad (verschärfte Gesetztgebung ist hier wirklich ein Problem, und sollte gewichtet werden), tatsächliche Zahl der Zugriffe (diese Statistik gibt es nach Erkennung sicherlich, sowie ob über die Plattform darüber gestolpert wurde, plattformintern geteilt wurde, oder über externe bzw. direkte Links navigiert wurde).

            Es bleibt die Essenz, dass für potentiell Freiheitseinschränkende Maßnahmen, hier einiges an Laufarbeit zu bewerkstelligen ist, die aus den hauptsächlich sichtbaren Teilen der politischen Diskussion eigentlich kaum erahnbar werden.

          4. Bei Links von Extern und Social Media als „Speicher“, ist allerdings zu beachten, dass dann auch Links auf irgendwas anderes verteilt werden könnten, und der Problemgehalt der Social Media in diesem Kontext vermindert sein dürfte. Die amortisierte Sicht auf Digitales hat sich in Gesetzeskontexten leider fast nur in einer Richtung durchgesetzt: „Wie oft wird es heruntergeladen? -> haltlose Schadensrechnung -> Strafmaß (+-)“.

    2. Ja haben sie, haben ja auch „Desinformationen“ geschrieben was ein von der Politik geprägter Propagandabegriff ist.

      1. Ich dachte, die Wissenschaft benutzt solche Begriffe auch. Damit meine ich nur, dass die Inauguaration nicht exklusiv sein muss.

  2. Ich vermisse in diesem Artikel und generell bei den Berichten über den DSA ebenfalls einen klaren, kritischen Bezug zu Schlagworten wie „Desinformation“ und was mit dem vermeintlichen Kampf dagegen überhaupt gemeint sein könnte.

    Werden auf den Plattformen etwa bald alle Aussagen von Ylva Johansson entfernt, in denen sie und ihre Unterstützer*innen wieder mit offensichtlichen und längst widerlegten Desinformationen auf die Chatkontrolle hinarbeiten?

    Wie steht es um Aussagen von Ursula von der Leyen, oder von der Urheberrechtslobby, von Innenminister*innen, von Greenwashing-betreibenden Konzernen, von Streitkräften bei der Rekrut*innensuche und so weiter, die aktiv mit Desinformationen (und Angst- und Hasskampagnen) arbeiten? Werden diese auch entfernt werden?

    Falls sie das nämlich nicht werden, dann geht es beim DSA ganz offensichtlich nicht um einen Kampf gegen Desinformation sondern um etwas anderes. Sollte einleuchten, oder?

    1. > Von gewissen Kreisen kann und darf man nichts anderes erwarten.

      Nebel-Sprech in Vollendung. Wenn Sie schon eigene Stereotypen kultivieren, machen sie sich doch bitte auch die Mühe, diese Kreise möglichst präzise zu benennen, sonst werden Sie im Alltag als Schwurbler wahrgenommen.

  3. Danke für den Bericht! Freue mich, dass auf dieser Front von einer eher hoffnungsvollen Entwicklung zu berichten ist.
    Ich bin sehr gespannt, wie gut die Umsetzung läuft.

  4. Das NetzDG wurde sehr gerne als Vorlage für entsprechende Gesetze in Russland, Weißrussland, Malaysia, Indien etc genutzt. Demokratische Staaten hatten daran nicht so viel Interesse.
    Wenn man sich DSA anschaut, könnte es hier genauso als Exportschlager funktionieren.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.